Sunteți pe pagina 1din 27

UNIVERSIDAD NACIONAL EXPERIMENTAL POLITCNICA

ANTONIO J OS DE SUCRE
VICERRECTORADO BARQUISIMETO
DIRECCION DE INVESTIGACIN Y POSTGRADO
TRABAJO No. 1.
(Investigacin correspondiente a la Ctedra: Introduccin a los Procesos Estocsticos
de la Maestra en Ingeniera Electrnica Opcin Tel ecomunicaciones).
Facilitadora: Participantes:
MSc. Marienny Arrieche Hctor, R. Martnez C. I. 18.222.220
Oskar, J . Snchez C. I. 18.950.734
Barquisimeto, Octubre, 2012
INTRODUCCIN
A lo largo de la vida, el ser humano debe tomar decisiones que le
permitan realizar acciones; y estas a su vez implican ms y ms decisiones;
de tal manera que algunas traen consigo resultados positivos y otras no. As,
se ha visto en la necesidad de estudiar las probabilidades de ocurrencia de
los eventos para anteponerse a ellos o bien para tomar medidas en funcin a
esos resultados.
La probabilidad, expresa el grado de certeza y por ende posee un
carcter de seguridad en torno a un suceso aleatorio, cuando es relacionado
con un fenmeno determinstico. De all que la probabilidad tiene un papel
crucial en la aplicacin de la inferencia estadstica porque una decisin, cuyo
fundamento se encuentra en la informacin contenida en una muestra
aleatoria, pudiera tener un error. En este sentido, se presenta el siguiente
informe monogrfico, el cual se desarrolla en forma secuencial y organizada
en tres partes:
En la primera, dedicada al estudio de las variables aleatorias, el
proceso de Poisson, la distribucin de Poisson, la distribucin Gamma y la
distribucin Exponencial negativa.
En la segunda, orientada al estudio de la probabilidad condicional para
las variables aleatorias discretas y continuas, en la cual se detallan la formula
de Bayes, la probabilidad y las particiones, el teorema de Bayes, y los
conceptos de probabilidad inicial y final.
Y en la tercera parte, se desarrolla la esperanza condicional para las
variables aleatorias discretas y continuas, cuyos tpicos se centran en las
definiciones de prediccin, varianza, momentos, media, mediana, covarianza
y correlacin. En cada aspectos se muestran algunos ejemplos orientados a
la practica profesional de la Ingeniera en Telecomunicaciones en el marco
de la tecnologa de las radiocomunicaciones aeronutica y para finalizar se
presentan las conclusiones y referencias bibliogrficas y electrnicas que
soportan la presente investigacin.
DESARROLLO
1. Variables Aleatorias
El estudio de la probabilidad tiene como finalidad predecir el valor que
pueda tener un evento, bajo ciertas condiciones. Este concepto, est
relacionado con la calidad en la produccin bien sea de bienes o servicios,,
dado a que se pueden comprender y controlar datos y de all hacer
conclusiones e inclusive aplicar correctivos y disminuir tendencias negativas;
o bien tomar medidas preventivas. Es por ello que este estudio, permite
confiar en la probabilidad de que un evento suceda o no.
Tanto as que, existen procesos que poseen un carcter variable y de
aleatoriedad; como el clima por citar un ejemplo. De all que combinando
estos aspectos, las variables aleatorias son definidas por Walpole, R. Myers,
R. y Myers, S. (1999) como: una funcin que asocia un nmero real con
cada elemento del espacio muestral (p. 51).
La definicin anterior, se relaciona al espacio muestral, es decir a los
diversos resultados que puede tener un determinado experimento, que
ciertamente est asociado a condiciones no controladas e inclusive al azar.
Este tipo de variables permite entonces convertir el resultado de un
experimento en una forma numrica, y se utiliza particularmente cuando el
investigador se centra en un aspecto especfico del mismo, es decir en una
muestra.
Para ejemplificar una variable aleatoria se puede tomar en
consideracin una situacin en la que un estudiante de postgrado de la
UNEXPO intenta estacionar su vehculo en el estacionamiento de la misma.
Entonces puede conseguir un lugar para estacionarse (P) y hacerlo, o no
encontrar sitio (N) y tener que salir del mismo. Con S ={P, N}la variable
aleatoria (X) se puede definir mediante X (P) =1, X (N) =0. De manera que
1 indica que pudo estacionarse y 0 que no lo logr. Cabe acotar, que las
variables cuyos nicos valores que puede tomar son 1 y 0 se conocen como
variables de Bernoulli; no obstante en un sentido general se pueden clasificar
las variables aleatorias en dos tipos: continuas y discretas.
Devore, J (2005) refiere que: una variable aleatoria discreta es una
variable aleatoria cuyos valores posibles constituyen un conjunto finito//
una variable aleatoria es continua si su subconjunto de valores posibles
consiste en un intervalo completo en la recta numrica (p. 100). Es decir
que una variable aleatoria es discreta cuando puede tomar valores que se
pueden contabilizar e incluso arreglar en forma secuencial, mientras que una
variable aleatoria es continua si sus valores consisten en intervalos
referenciados en la recta de los nmeros reales.
En resumen, en el estudio probabilstico de cierto experimento se
pueden considerar variables aleatorias para generalizar sus resultados
posibles, y trabajar con las mismas sin tomar en consideracin cual ser el
resultado final. Evidentemente, esta variable pertenece al conjunto del
espacio muestral y puede ser un valor numrico, booleano, texto, etc. No
obstante, se suele trabajar con los valores numricos porque son los que
aportan mayor cantidad de informacin al momento de medir magnitudes, o
incluso realizar operaciones para establecer conclusiones de los resultados
arrojados por dicho experimento.
Es importante destacar, que cuando un experimento arroja resultados
textuales, o booleanos se establecen parmetros de codificacin para
transformar a forma numrica los elementos del espacio muestral. Por
ejemplo, si se realizase un experimento en el que se observara cul es la
rama de la ingeniera a la que pertenece el participante de la Maestra en
Ingeniera Electrnica Opcin Telecomunicaciones que entra primero al aula
de clases?, el espacio muestral viniera dado por las ramas de la ingeniera
que poseen cada uno de los estudiantes de dicho programa, ejemplo:
Y la codificacin sera algo como:
S ={Electrnica, Elctrica, Sistemas, Telecomunicaciones}
S ={1: Electrnica, 2: Elctrica, 3: Sistemas, 4: Telecomunicaciones}
Ntese, que en el ejemplo anterior la variable aleatoria (X) viene
determinada por la persona que entre primero al aula de clases (y la rama de
la ingeniera a la que pertenece); y el experimento en general es disjunto ya
que no van a entrar dos personas en forma simultanea.
Para el caso especifico de las variables aleatorias discretas, estas
pueden tomar valores que son numerables, lo que da un carcter de
posibilidad en cada punto aislado del espacio muestral; por ende hay una
cantidad finita de valores posibles entre los resultados que puede arrojar un
experimento. Por lo que en funcin a este tipo de variables aleatorias, se
realizaron estudios de distribucin que permiten agrupar el conjunto de
valores posibles y relacionar a los mismos con sus respectivas
probabilidades de ocurrencia.
1.1 Distribucin y Proceso de Poisson
Particularmente, el proceso de Poisson toma en cuenta un continuo en
el cual ocurren los eventos; de manera que se establece una relacin entre
estos dos aspectos.
Por ejemplo: si se evalan la cantidad de fallas de un sistema
cualquiera en 5 horas, el continuo sera el tiempo y los eventos serian las
fallas que ocurren. La referencia al continuo no necesariamente est ligada al
tiempo, tal que si se toma en consideracin una rollo de cinta para
impresoras y se cuentan los tramos en los que el rollo no posee tinta, el
continuo sera la longitud de cinta que posee el rollo y los eventos la cantidad
de tramos sin tinta.
En este orden de ideas, el proceso de Poisson toma en cuenta 3
variables a saber:
T: representa la longitud de un intervalo del continuo que va a
estudiarse
K: representa la cantidad de eventos en ese intervalo:
: representa la cantidad esperada de eventos por unidad de tiempo.
Estas 3 variables pueden observarse en el siguiente ejemplo: Si se
considera un equipo de Radio Ayudas (DVOR) el cual falla 2 veces cada una
hora, y se evala dicho evento durante 5 horas (desde las 13:00 hasta las
18:00), en los que falla 11 veces. Las variables seran vistas como:
De tal manera que, conocidas las cantidades de eventos que se
registran en la evaluacin () podra cuestionarse acerca de la cantidad de
eventos en un determinado tiempo, o bien el tiempo que hay que esperar
hasta observar una cantidad de eventos. De este planteamiento surgen 3
distribuciones de probabilidad a estudiar en la presente investigacin: a)
distribucin de Poisson: en la cual se considera la cantidad de eventos en el
periodo de evaluacin el continuo, b) distribucin Gamma en la cual se
determina la cantidad de tiempo necesario hasta observar cierta cantidad de
eventos, c) distribucin exponencial negativa, que es una derivacin de la
distribucin Gamma y se determina la cantidad de tiempo para observar el
primer evento.
El proceso de Poisson se caracteriza por ser estacionario,
independiente en el nmero de resultados que suceden en un intervalo de
tiempo o regin del espacio y simple. De manera que, de acuerdo a este
proceso la probabilidad de que ocurra un solo resultado durante un intervalo
de tiempo muy corto o en una regin pequea es proporcional al propio valor
tomado como referencia (bien sea de tiempo o regin); mientras que la
probabilidad de que ocurra mas de un resultado en tal intervalo corto o que
caiga en tal regin es prcticamente insignificante.
En referencia a la distribucin de Poisson, se utiliza cuando existe un
determinado intervalo en el que suceden eventos y se necesita calcular la
T = 5 horas el continuo tiempo de evaluacin
K= 11 eventos cantidad de fallas registradas
= 2 eventos/hora cantidad de eventos por horas
cantidad de stos en dicho intervalo, de manera que para utilizar esta
distribucin se toma en consideracin un parmetro denominado Media, que
no es ms que una tendencia estadstica. Sus aplicaciones se evidencian
con frecuencia en el control de calidad, la garanta de la calidad, el muestreo
e incluso para estudios de confiabilidad.
Para estudiar esta distribucin, se puede tomar como referencia la
situacin en la que un equipo falla 12 veces por hora, y es evaluado durante
15 minutos. Entonces el valor de la media viene dado por la relacin:
p = zI
De tal manera que, se puede definir la variable aleatoria de Poisson
como:
X = Poisson(p)
La cual es una variable con media , y en donde X representa la
cantidad de eventos obtenidos en un intervalo de longitud T e intensidad: .
De all que:
P(X = x) =
c

p
x
x!
Entonces, para el ejemplo anterior la media es igual a:
= 12 fallas/horas x 15 minutos =12 fallas/60 minutos x 15 minutos
= 3 fallas.
Si se quiere determinar la probabilidad de que el equipo no falle en
esos 15 minutos sera
P(X = u) =
c
-3
3
0
0!
= u.u4979
O bien, si se quiere determinar la probabilidad de que falle 4 veces en
ese tiempo:
P(X = 4) =
c
-3
3
4
4!
= u.168uS
Es de notar, que el valor de la media, siempre es positivo, y que al
sumar la probabilidad para todos los eventos que se pueden dar en un
experimento, el resultado debe ser igual a 1; esta regla es el fundamento de
la suma de probabilidades de Poisson que matemticamente se representa
como:
P(x, p)

x=0
= 1
Formula que se resume con:

p
x
x!

x=0
= 1
Con el ejemplo anterior se puede entonces realizar un histograma con
las probabilidades de eventos, tal como se muestra a continuacin:
Cuadro 1
Tabla de Valores para Distribucin de Poisson de un equipo que falla 12
veces por hora y es evaluado durante 15 minutos.
X P(X = x)
Fallas Probabilidad
0 0,0498
1 0,1494
2 0,2240
3 0,2240
4 0,1680
5 0,1008
6 0,0504
7 0,0216
8 0,0081
9 0,0027
10 0,0008
11 0,0002
12 0,0001
= 1,0000
Los autores (2012)
Grfico 1.
En el cuadro 1 se observa la tabla de valores que se origina al evaluar
hasta un mximo de 12 fallas con la distribucin de Poisson. En el grfico 1
se puede observar que entre 2 y 3 fallas la curva gaussiana toma un valor
mximo de probabilidades de eventos a ocurrir en el tiempo evaluado.
Es de notar que en este proceso de Poisson se pueden observar
eventos discretos en un rea de oportunidad, que al acortarse acorta las
posibilidades de suceso y permite observar estabilidad en la grfica.
1.2 Distribucin Gamma
Para definir la Distribucin Gamma es preciso conocer a que se refiere
la funcin Gamma, la cual viene determinada con la relacin:
(o) = _ x
u1
c
x

0
Jx
La cual es valida para valores positivos de "o", y cuyo resultado al
integrar por partes, para valores mayores que uno, son (o) = (o -1)
-3.89E-16
0.05
0.1
0.15
0.2
0.25
0.3
0 1 2 3 4 5 6 7 8 9 10 11 12
D
i
s
t
r
i
b
u
c
i

n

d
e


P
o
i
s
s
o
n
Eventos (Fallas)
P (X =x) Probabilidad
Los autores (2012)
(o -1); para cualquier entero positivo "n", el valor de (n) = (n -1)!.
Mientras que para [
1
2
= n
Las distribuciones Exponencial y Gamma tienen una amplia gama de
usos en lo que respecta a la teora de colas y en la resolucin de problemas
de confiabilidad, y permiten determinar la probabilidad de tener que esperar
un determinado tiempo hasta que suceda un primer evento o un nmero
determinado de eventos, respectivamente.
Evidentemente, la distribucin Gamma, trabaja con una variable
aleatoria, la cuales viene representada por el tiempo que debe transcurrir
antes de que sucedan los eventos, de manera que la densidad de
probabilidad de esa variable viene dada por la relacin matemtica
(x; o, 0) = _
1
(o)0
u
x
u1
exp(-
x
0
) x>u,a,>u
u paiacualquieiotiovaloi

Donde 0 es el tiempo promedio entre dos eventos sucesivos y su
inverso (1/0) se entiende como la frencuencia constante de ocurrencia.
Esta distribucin es muy variada puesto que dependiendo del valor del
parmetro "o" pueden suceder varios escenarios. En la siguiente tabla se
muestran las propiedades de la distribucin Gamma:
La distribucin Gamma (o tambin conocida como la distribucin de
Erlang), se relaciona con la distribucin de Poisson, tal que la probabilidad de
Fuente: Canavos, G. (1988)
que el tiempo que transcurre hasta el o -simo evento exceda el valor de
"x" es igual a la probabilidad de que el numero de eventos de Poisson "x"
observados en no sea mayor que (o -1). De tal manera que:
La distribucin de Erlang es el modelo para el tiempo de
espera hasta que ocurre el a-simo evento de Poisson, y la
distribucin de Poisson es el modelo para el numero de eventos
independientes que ocurren en un tiempo x, encontrndose
ste distribuido de acuerdo al modelo de Erlang (et.al. p.152)
De all que, al determinar la distribucin Gamma, incluso se pueden
utilizar modelos matemticos similares a los utilizados con la distribucin de
Poisson. Cabe destacar, que el anlisis matemtico de esta distribucin es
complejo, dada su dificultad para la integracin; en tanto una forma
alternativa de determinarla podra ser considerando que la probabilidad de
que el tiempo que se tarda en obtener el evento esperado (o-simo) sea
menor que x
0
, es igual a la probabilidad de que en un intervalo de duracin
x
0
existan "o"o mas eventos. En este sentido, se tiene que Fx(x
0
) = 1 -
Fy(k -1) donde "x" es la variable aleatoria Gamma, la cual posee los
parmetros z, y k; en tanto que Y es una variable de Poisson cuyo p = z x
0
,
con lo que se puede sustituir la integral por:
x(x)Jx = 1 - P( = i)
=1
=0
x
0
0
.
Y se puede resumir la distribucin Gamma como:
(x) =
z(zx)
k1
c
xx
(k -1)!
Es importante destacar, que la distribucin Gamma se utiliza cuando
se describe el continuo temporal en el cual suceden los eventos, y se
contina la observacin de los mismos hasta que suceda una cantidad de
eventos determinada; asimismo, se utiliza cuando se conoce o puede
determinar la frecuencia promedio con la que suceden los eventos .
Entre las caractersticas que determinan esta definicin se tiene que:
a) no es nula para todos los tiempos mayores a cero, ya que es imposible
tener que esperar un tiempo negativo hasta que sucedan eventos; b) no es
conveniente para tiempos muy grandes, ya que hace despreciable su uso; c)
todos los eventos involucrados deben ser independientes (como corresponde
a los Procesos de Poisson).
Para ejemplificar la distribucin Gamma, se puede considerar una
situacin en la que un equipo de transferencia de datos, transmita 50
mensajes durante un da. Si su tasa de transmisin es de 4 mensajes por
hora. Entonces, que probabilidad habra de transmitir todos los mensajes en
12 horas.
Tomando en consideracin que cada mensaje es independiente, es
decir que no son correlativos, ni se relacionan con otros, se establece el
ejemplo como un Proceso de Poisson, cuya variable Gamma viene dada por
el tiempo que puede tomar transmitir los 50 mensajes, con z = 4ms] y
k = Sums]. Por lo que la variable aleatoria Gamma se puede representar
como: X = 0ommo(z = 4; k = Su), para t >0.
En este sentido, la distribucin Gamma viene dada por:
(x) =
4(4x)
501
c
4x
(Su -1)!
=
16x
49
c
4x
6.u8 1u
62
= 2.69u4 1u
13
x(c
4x
)
Entonces para que tarde menos de 12 horas, se debe solucionar la
integral Gamma, la cual queda expresada a continuacin.
P(x < 12) = _ (x)Jx = _ 2.69u4 1u
13
x(c
4x
)
12
0

= 2.69u4 1u
13
_ x(c
4x
)
12
0
Jx
= 2.69u4 1u
13
|1 -c
4(12)
(1 +4)]
= 2.69u4 1u
13
Lo cual se representa una probabilidad bastante nfima y que se hace
obvia dada la velocidad de los sistemas de transmisin digital.
1.3 Distribucin Exponencial
Como se mencion anteriormente, la distribucin exponencial
(negativa) es una variante de la Distribucin Gamma, en la que la variable
aleatoria exponencial es el tiempo que trascurre hasta que se presenta el
primer evento de Poisson; de manera que, permite realizar un modelo entre
el intervalo en el que se presentan dos eventos consecutivos, como por
ejemplo las primeras dos muestras que se toman referenciados a cierto valor
de amplitud en una seal continua. Cabe destacar, que estos eventos se
caracterizan por ser independientes y a una frecuencia constante. Canavos,
G. (1988), refiere que esta distribucin se emplea con bastante frecuencia
con objeto de modelar problemas del tipo tiempo-falla y como modelo para el
intervalo en problemas de lnea de espera (pp. 163).
La referencia a la aplicacin del precitado autor, permite analizar que
esta distribucin no posee un carcter recordatorio, en lo que respecta a la
probabilidad de que el evento analizado ya se halla presentado o se presente
en el futuro, lo cual limita su carcter predictivo; solo se limita a la
probabilidad de que una unidad falle en un periodo especfico de tiempo.
En lneas generales, una situacin que requiera ser anlizada
mediante esta distribucin describe el continuo temporal en el cual suceden
los eventos, indica que observacin hasta la ocurrencia del primer evento
(mientras), permite determinar la frecuencia promedio de ocurrencia de
eventos [, y se enfoca en la determinacin de la probabilidad de suceso
referencia en el tiempo.
Matemticamente, una variable aleatoria continua X posee una
distribucin exponencial, con parmetro [, si su funcin de densidad se da
por la relacin:
(x) = _
1
[
c

x
[
u

x > u
En esta relacin se identifica el parmetro [ que representa el lapso
promedio de tiempo entre dos eventos de Poisson.
Un ejemplo practico de esta distribucin podria ser un sistema
cualquiera, el cual ha sido recientemente reparado y se prev observar su
comportamiento, luego de esa reparacin, en funcin de verificar si falla
nuevamente. Suponiento la variable aleatoria T, con tiempo medio para la
falla [ =5. Si se observan las 5 etapas de este sistema, Cual sera la
probabilidad de que al menos 2 etapas funcionen al final de la semana (8
das)?. En este orden de ideas, la probabilidad de que una sola etapa
funcione se modela exponencialmente a travs de la relacin:
P(I > 8) =
1
S
_ c
t
5
Jt = c
8
5
u.2

8
2. Probabilidad Condicional para variables discretas y
continuas
La probabilidad condicional consiste en realizar un experimento, cuyo
espacio muestral de posibles resultados es S, sin embargo su estudio se
caracteriza por incluir datos adicionales que especifican las probabilidades
para todos los eventos o sucesos de S, es decir que se puede realizar un
estudio ms detallado de la forma como cambia la probabilidad de un suceso
cuando se sabe que otro evento ha ocurrido y que efecto puede generar este
en la misma.
En tal sentido, citando a autores como Morris, D. (1986) denomina la
probabilidad condicional del suceso A dado que el suceso B ha ocurrido (p.
55).
Siguiendo el mismo tenor de ideas, Murray, S. (1976) establece que,
llamamos a P(B|A) la probabilidad condicional de B dada A, es decir la
probabilidad de que B ocurra dado que A ha ocurrido (p. 55).
Para Walpole, R. Myers, R. y Myers, S. (1999), la probabilidad de
que un evento B ocurra cuando se sabe que ya ocurri algn evento A se
llama probabilidad condicional y se denota por P(B|A) (p. 35).
Se puede considerar que las tres definiciones coinciden en sus
trminos y es importante destacar que al conocer que un evento ha ocurrido,
se convierte en el nuevo espacio muestral reemplazando el original y a su
vez desde el punto de vista frecuencialista, la probabilidad condicional tiene
una interpretacin sencilla, en efecto, de acuerdo con esa apreciacin, si un
proceso experimental se repite muchas veces, se puede deducir que la
proporcin de repeticiones en las cuales el suceso B ha ocurrido es
aproximadamente P(B) y la proporcin de repeticiones en las cuales el
evento A y B ocurren es aproximadamente P(B|A). Por tanto, entre las
repeticiones que en el suceso B ocurre, la proporcin de repeticiones en que
tambin ocurre el suceso A, de esta manera se define as:
P(B|A) =
Pr(AB)
Pr(B)
Por otra parte, Devore, J (2005) argumenta que para dos eventos
cualesquiera A y B con P(B) > u, la probabilidad condicional de A dado que
ocurri B se define mediante la ecuacin (p. 77):
P(A|B) =
P(A B)
P(B)
Finalmente la ecuacin nos indica que matemticamente si ambos
eventos cualesquiera P(B) > y la probabilidad P(B|A) no est
especificada si P(B|A) = .
Figura 1. Diagrama de Venn para la probabilidad condicional
Fuente: Morris, D. (1985)
Como ilustra el diagrama de Venn P(B|A) mide en cierto sentido la
probabilidad relativa de A con respecto al espacio reducido B. En pocas
palabras quiere decir que la probabilidad condicional toma en cuenta
informacin sobre la ocurrencia de un evento para predecir la probabilidad de
otro.
2.1 Probabilidad y particiones
Harris estipula que, sea S el espacio muestra1 de un experimento y
considrense K sucesos A
1
, . , A
K
de S de forma que A
1
, . , A
K
sean
disjuntos y A

k
=1
= S.. Se dice que estos sucesos constituyen una
particin de S. Si los b sucesos A
1
, . , A
K
constituyen una particin de S y si
B es cualquier otro suceso en S, entonces los sucesos A
l
B, A
2
B, . . . , A
k
B
constituyen una particin de B, como se ilustra en la siguiente figura. Se dice
que estos sucesos constituyen una particin de S.
Figura 2. Intersecciones de B con los sucesos de A
1
,A
5
de una particin
Si los k sucesos A
1
, . , A
K
constituyn una particin de S y si B es
cualquier otro suceso en S, entonces los sucesos A
1
B, A
2
B, , A
K
B,
constituyen una particin de B. De esta manera se expresa la siguiente
ecuacin:
Fuente: Morris, D. (1985)
Pi(B) = Pi(A
]
) Pi(B|A
]
)
k
]=1
Despus de analizar minuciosamente, se puede considerar que la
probabilidad de una particin consiste en dividir el espacio muestral en varios
eventos mutuamente excluyentes y descomponerlo en funcin de un evento
que tenga componentes en dicho espacio muestral.
Para comprender mejor la teora supngase que un radar primario de
vigilancia tiene un rea de cobertura de 40 NM y que para cierto momento
detecta 5 aeronaves legales y 2 ilegales al noreste, en ese mismo instante
percibe 3 aeronaves legales y 1 ilegal al noroeste, a su vez detecta al sureste
4 legales y una ilegal y de igual manera tiene 2 legales y 1 ilegal al suroeste.
Supngase tambin que selecciona una aeronave de forma aleatoria (las
aeronaves no tienen identificacin). Cul es la probabilidad que la aeronave
seleccionada sea ilegal?
Sea A1 el evento de que selecciones el noreste, sea A2 el evento de
que seleccione el noroeste, sea A3 de que seleccione el sureste, sea A4 de
que seleccione el suroeste y sea B el evento de que seleccione la aeronave
ilegal.
Entonces:
Pi(B) = Pi(A
1
) Pi(B|A
1
) +Pi(A
2
) Pi(B|A
2
) +Pi(A
S
) Pi(B|A
S
) +Pi(A
4
) Pi(B|A
4
)
Puesto a que selecciona una direccin al azar se sabe que Pi(A
1
) =
Pi(A
2
) = Pi(A
3
) = Pi(A
4
) =
1
4
Adems la probabilidad de seleccionar una aeronave ilegal en la
primera direccin viene dada por:
Pi(B|A
1
) =
2
7
La probabilidad de seleccionar la segunda direccin es: Pi(B|A
2
) =
1
4
La probabilidad de seleccionar la tercera direccin es: Pi(B|A
3
) =
2
6
La probabilidad de seleccionar la cuarta direccin es: Pi(B|A
4
) =
1
2
Sustituyendo en la ecuacin se obtiene que la probabilidad de
seleccionar una aeronave ilegal es:
Pi(B) = u.S9
2.2 Teorema de Bayes
Supngase que los sucesos A
1
, . , A
K
constituyen una particin del
espacio S tal que Pr(Aj) >O para j =1, . . . , k y sea B cualquier suceso tal
que Pr(B) >O. Entonces, para i =1,. . . , k.
Pi(A

B) =
Pi(A

) Pi(B|A

)
Pi(A

) Pi(B|A

)
k
]=1
Es importante destacar que el teorema de Bayes proporciona una
regla sencilla para calcular la probabilidad condicional de cada suceso A
i
dado B a partir de las probabilidades condicionales de B dado cada uno de
los sucesos A
i
y la probabilidad incondicional de cada A
i
.
Para una mejor compresin, de los antes dicho se tomaran los datos
del ejemplo anterior para determinar la probabilidad de que la aeronave
seleccionada sea legal, para ello se tienen A
1
, A
2
, A
3
yA
4
. Y se determinara la
probabilidad de que la direccin seleccionada haya sido A
3
, Donde:
A
1
= 26% = u.26, A
2
= 1S% = u.1S, A
3
= 21% = u.21, A
4
= S% =
u.uS
La probabilidad de que selecciones a uno de los eventos es:
Pi(A
1
) = Pi(A
2
) = Pi(A
3
) = Pi(A
4
) =
1
4

Adems la probabilidad de seleccionar una aeronave legal en la


primera direccin viene dada por:
Pi(B|A
1
) =
5
7
La probabilidad de seleccionar la segunda direccin es: Pi(B|A
2
) =
3
4
La probabilidad de seleccionar la tercera direccin es: Pi(B|A
3
) =
4
6
La probabilidad de seleccionar la cuarta direccin es: Pi(B|A
4
) =
1
2
Sustituyendo en el teorema de Bayes:
Pi(A

B) =
Pi(A
3
) Pi(B|A
3
)
Pi(A

) Pi(B|A

)
k
]=1
Pi(A
3
B) =
u.66 u.2S
(u.2S u.71) +(u.2S u.74) +(u.2S u.66) +(u.2S u.S)
k
]=1
2.3 Probabilidad inicial y probabilidad final
Una probabilidad como Pi(A
3
) se denomina usualmente probabilidad
inicial de que la aeronave seleccionado haya sido legal y este en la direccin
sureste, debido a que Pi(A
3
) es la probabilidad de este suceso, antes de que
la aeronave sea seleccionado y antes de que se sepa si la misma es legal o
ilegal. Una probabilidad como Pi(A
3
B) se denomina entonces la
probabilidad final de que el artculo seleccionado haya este en la direccin
sureste, debido a que es la probabilidad de este suceso despus de saber
que el artculo seleccionado es legal.
En pocas palabras la probabilidad inicial es la probabilidad de un
suceso determinado sin estar condicionado a la ocurrencia previa de otro
evento y la Probabilidad final es la probabilidad de un suceso determinado el
cual est condicionado a la ocurrencia previa de otro evento.
3. Esperanza condicional para variables discretas y continuas
Antes de definir la esperanza condicional aplicada a las variables
discretas y continuas, es preciso considerar la esperanza matemtica en
sentido general. Se refiere al valor que se podra esperar que asuma una
variable aleatoria si se realiza un experimento al cual est asociada.
Evidentemente, que el precitado concepto se asocia a las variables aleatorias
continuas y discretas, tal que se considera la sumatoria de las probabilidades
del espacio muestral para las variables discretas y la integracin de la
funcin cuando es continua.
La esperanza o valor esperado constituye as, un concepto de gran
relevancia en el estudio de las distribuciones de probabilidad, ya que permite
determinar un valor promedio que puede aumentar o disminuir despus de
un nmero muy grande de repeticiones del experimento. De all se puede
inferir que la esperanza condicional permite obtener una idea del valor que se
puede esperar al realizar un experimento, y que una vez obtenidos los
resultados del mismo, permite tener una distribucin de probabilidades para
otra variable.
Si de determina la distribucin condicional de X dado Y, entonces la
probabilidad condicional depende de x y de y, de tal manera que permite
obtener una distribucin para X, al conocer el valor de Y; es decir que para
cualquier valor valido de y, F
X
(x, y) es una distribucin perfectamente
valida para x.
Un ejemplo de la esperanza matemtica podra ser, si dentro de un
lote de equipos hay 7 componentes (circuitos integrados), y de stos se
sabe que 4 estn en ptimas condiciones y 3 estn defectuosos. Entonces si
se toma una muestra de 3 componentes, al azar, se puede determinar la
esperanza de componentes buenos en esa muestra al efectuar, la
combinacin
(x) =
[
4
x
[
S
S -x

[
7
S

, poro:olorcsJcX = u,1,2,S
Esa relacin se toma en cuenta, considerando que en la muestra
seleccionada pueden haber 0, 1, 2, 3 componentes, buenos entonces la
distribucin de probabilidad para esos casos dara
(u) =
1
SS
, (1) =
12
SS
, (2) =
18
SS
, (S) =
4
SS
Entonces, al aplicar el principio de la esperanza matemtica se
tendra que:
E(x) = (u) _
1
SS
] + (1) _
12
SS
] + (2) _
18
SS
] +S _
4
SS
] =
12
7
= 1.7
Que representa el promedio de componentes buenos.
La determinacin de la esperanza matemtica vara, en relacin a si
es la variable aleatoria es discreta o continua. Walpole, R. Myers, R. y Myers,
S. (1999), identifican que el valor esperado de una variable aleatoria g(x) es
p
g(X)
= E|g(X)] = g(X)(x) si X es discreta, y p
g(X)
= E|g(X)] =
g(X)(x)Jx si X es continua (pp. 88).
3.1 Propiedades bsicas
El autor Morris, D. (1986) en su texto Probabilidad y Estadstica,
refiere que la Esperanza Matemtica, presente algunas propiedades
caractersticas; las cuales se presentan a continuacin:
Teorema 1. Si = oX +b, donde o y b son constantes, entonces
E() = oE(X) +b. Este teorema, se corresponde a la estimacin del valor
esperado de una funcin lineal, que bien pudiera ser discreta. Su
demostracin consiste en comprender que X como variable aleatoria, posee
una funcin de densidad de probabilidad, que puede incrementar o no, en
funcin a un valor constante.
Teorema 2. Si existe una constante o tal que Pi(X o) = 1,
entonces E(X) o; mientras que si la constante es b, para Pi(X b) = 1,
entonces E(X) b.
Teorema 3. Si X
1
, X
2
, X
n
, son n variables aleatorias cuyas
esperanzas E(X

)(i = 1,2, n) existen, entonces E(X


1
+ X
2
++X
n
) =
E(X
1
) +E(X
2
) ++E(X
n
). Es decir que, es posible determinar la esperanza
en una sumatoria de variables, la cual ser resultante a la suma de sus
esperanzas individuales en forma independiente.
3.2 Prediccin
La prediccin es un trmino que est asociado a la probabilidad p de
una evento E, cualquiera, el cual indica que en un numero elevado de
experimentos el evento E ocurrida en una proporcin p. Es importante
destacar, que las predicciones se hacen sobre eventos de los que se
desconoce su ocurrencia, bien sea de forma aleatoria o continua (en un
momento dado o en forma acumulada), en una sucesin de momentos.
En general, este concepto esta asociado al azar, dado a que
representa el basamento para poder predecir, y requiere de la consideracin
de todas las caractersticas que describen el evento en estudio. Interpretando
a Barboianu, C. y Martilotti, R (2009), la prediccin tiene un carcter
ontolgico, es decir que se basa en el hecho y en sus propiedades.
Un ejemplo, de la prediccin podra ser el principio de funcionamiento
de un radar primario, el cual detecta blancos mviles y fijos tras una cantidad
de barridos. En este orden de ideas, toma en consideracin las condiciones
de movimiento de los blancos para establecer la direccin y sentido del
movimiento de los blancos.
Entonces, si consideramos la ocurrencia de un evento E, n veces, se
puede concluir que E ocurrir tambin en la n+1 vez, lo que aplicado a la
propiedad frecuencialista implica que al evaluar la frecuencia
1
,
2
,
3

n
que
son aproximadamente iguales n veces, entonces los resultados seguirn
siendo los mismos en la frecuencia siguiente de
n+1
en la observacin n+1.
La afirmacin anterior, se basa en la suposicin tcita que la realidad
es predecible, o dicho de forma probabilstica, de que existe un lmite de la
frecuencia.
3.3 Varianza
Dado que la esperanza matemtica permite tener una idea acerca del
valor que se puede esperar una determinada variable aleatoria, dentro de un
experimento cualquiera; permite referenciar un posicin dentro del espacio
muestral. Asimismo, permite conocer si los valores que puede tomar la
variable aleatoria estn cercanos o lejanos, lo cual conlleva a establecer una
tendencia de acercamiento o alejamiento de los valores que puede tomar la
variable aleatoria con relacin a la media; este aspecto es el objeto de la
varianza. La varianza es una medida de cuanto tienden los valores de una
variable aleatoria a alejarse de la media de la misma, por lo tanto es una
medida de dispersin. Es por ello que Anderson, D. y Sweeney, J (2008)
refieren que la varianza brinda una informacin importante para tomar un
decisin (p. 435)
Para determinar la varianza de una variable aleatoria X, se aplica:
Ior(X) = o
x
2
= E((X -E(X))
2
= _(x -p
x
)
2
x(x)Jx

La varianza, se define entonces como la esperanza de los cuadrados


de las distancias entre los valores de la variable y el valor medio de la
distribucin. Cabe destacar, que la dispersin entre los valores de la variable
aleatoria, entonces el valor esperado tender a ser ms grande y por ende la
varianza tendr tendencia a ser mayor.
Al operar, la ecuacin anterior resulta
o
x
2
=
(x

-x )
2
n -1
Una aplicacin podra ser , si se desea calcular la varianza al
considerar un historial de fallas. Se toma una muestra temporal, supongamos
4 meses, en los que la cantidad de fallas fueron (12, 15, 17, y 20). Entonces
se determina el promedio de fallas de esos 4 meses (16 fallas), por tanto la
varianza se puede calcular de la siguiente manera:
o
x
2
=
(x
i
x )
2
n1
=
(x
i
16)
2
41
=
(1216)
2
+(1516)
2
+(1716)
2
+(2016)
2
3
=
34
3
3.4 Momentos
Los momentos de una variable aleatoria X son los valores esperados
de ciertas funciones de la misma. Estos representan una coleccin de
medidas descriptivas que permiten caracterizar la distribucin de probabilidad
de la variable y especificarla si todos los momentos son conocidos. Su
definicin se presenta alrededor de un punto de referencia, que
generalmente es el cero o bien de la esperanza de X.
En este sentido, tomando en consideracin el n-simo momento de la
variable alrededor del cero, se puede definir como: p
n
= E(X
i
) = x
i
p(x)
Para las variables aleatorias discretas, y p
n
= E(X
i
) = x
i
(x)Jx
x
0
Para las
variables continuas.
Es importante destacar, que el primer momento alrededor del cero es
la media o valor esperado de la variable aleatoria y se denota por p; de esta
manera se tiene que p
1
i
= p = E(X); mientras que la varianza es el segundo
momento alrededor del origen menos el cuadrado de la media.
3.5 La media y la mediana
La media de una distribucin de probabilidad es un parmetro que se
ubica en el centro de gravedad de esa distribucin. En este sentido, la media
de una distribucin es considerada como el centro de la distribucin, es decir
un punto que divide la probabilidad total en dos partes iguales (p
0
) tal que
tanto a la izquierda como a la derecha de este valor es equivalente a 0.5;
este punto es denominado mediana de la distribucin. Es importante resaltar,
que para algunas distribuciones discretas, no existir algn punto en el que la
probabilidad sea dividida en dos partes iguales.
Por otra parte, para otras distribuciones (discretas o continuas),
existirn mas de tales puntos por lo tanto la definicin de la mediana debe
incluir esas posibilidades.
Para cualquier variable aleatoria S, una mediana de la distribucin de
X se define como un punto tal que. Pi(x u.S) yPi(x n
z
) u.S
En otras palabras, una mediana es un punto n
z
tal que satisface los
dos requisitos siguientes: En primer lugar, si est incluida en los valores de
X a la izquierda de entonces Pi(X ) Pi(X >); y en segundo lugar,
si se incluye en los valores de la variable aleatoria X, a la derecha de
entonces. Pi(X ) Pi(X <).
3.6 Covarianza y correlacin.
3.6.1 Covarianza
Si se consideran variables conjuntas de dos variables aleatorias,
en conjunto con las medias, mediana y varianzas seguramente van a
proporcionar informacin importante de sus distribuciones. No obstante es
datos no indican informacin acerca de su tendencia a variar junas y no
de forma independiente; lo que quiere decir que se estudiara nuevos
parmetros que permiten medir la asociacin entre dos variables
aleatorias y predecir el valor independiente de una de ellas de forma
independiente utilizando el valor observado de otra la variable
relacionada.
Por lo tanto, sean X e variables aleatorias que tienen una
distribucin conjunta cuyos primeros momentos y varianzas son E(X) =
p
x
, E() = p
,
Ior() = o
x
2
yIor = o

2
la covarianza X e , que se denota
por Co:(X, ) se define de la siguiente manera:
Co:(X, ) = E|(X -p
x
)( -p

)
3.6.2 Correlacin
Si u < o
x
2
< y < o

2
< , entonces la correlacin de X e que se
denota p(X, ), se define como sigue:
p(X, ) =
Co:(X, )
o
X
o

Para determinar el rango de valores posibles de la correlacin p(X, ),


es necesario el siguiente resultado:
|E(uI)]
2
E(u
2
)E(I
2
)
CONCLUSIONES
Una vez examinada, procesada y analizada la informacin recabada
en los diferentes libros de textos, los cuales profundizaron los conocimientos
y la adquisicin de los mismos para aplicar, analizar y utilizar conceptos
formales basados en variables aleatorias, en la probabilidad condicional y en
la esperanza para variables discretas y continuas; es importante rescatar de
dicho estudio, el anlisis de mtodos probabilsticos para la evaluacin de
problemas cotidianos o aquellos intrnsecos en campos de de la ingeniera
como la electrnica y las telecomunicaciones, donde se presentan variables
aleatorias, discretas y continuas que afectan el desempeo de sistemas de
comunicaciones que seguramente sern optimizados en funcin de la
aplicacin de las herramientas probabilsticas heredadas de este informe.
Seguidamente, cabe destacar que se estableci como y cuando
diferenciar nociones probabilsticas elementales como la frecuencialista
(objetiva) fundamentada en la frecuencia relativa de las veces que ocurrir un
proceso al realizar un experimento repetidas veces; de aquella probabilidad
bayesiana (subjetiva) basada en la certeza que se posee sobre un evento.
De esta manera, la probabilidad se adelanta a los hechos, es decir
que puede resultar predictiva considerando un estudio ontolgico detallado
de todas las propiedades intrnsecas en el universo del espacio muestral,
aunado a esto con el pasar del tiempo y de muchas repeticiones de los
experimentos puede adicionar datos estadsticos que a la larga pueden
otorgar una mayor comprensin de los sistemas y de nuestro entorno.
Finalmente, se puede afirmar, desde un punto de vista filosfico, la
caracterstica particular que tiene la vida, su entorno, el universo entero en
ser a lo largo de ellos totalmente aleatorios, condicionados y variables
discretas y continas.
REFERENCIAS
Anderson, D. y Sweeney, D. (2008). Estadstica para administracin y
economa, decima edicin, Cengage Learning Editores, Mxico.
Barboianu, C. y Martilotti, R. (2009). Entendiendo las Probabilidades y
Calculndolas Infarom, Rumania.
Berenson, M. y Levine, D. (1996). Estadstica bsica en administracin.
Conceptos y Aplicaciones. Editorial Pearson, Mxico.
Canavos, G. (1988) Probabilidad y Estadstica, aplicaciones y mtodos,
Mc.Graw-Hill, Mxico.
Devore, J . (2005) Probabilidad y Estadstica para ingeniera y ciencias,
Sexta Edicin, Thomsom, Mxico.
Fernndez, S, Cordero, J , y Crdoba A. Estadstica descriptiva, Segunda
edicin, ESIC, Espaa.
Gmurman, V. (1974). Teora de las Probabilidades y Estadstica
Matemtica, Mosc Editorial, URSS.
Zylberberg, A. (2006). Probabilidad y Estadstica, Nueva Librera, Argentina.
Levin, R. y Rubin, D. (2004). Estadstica para administracin y economa.
7ma edicin, editorial Pearson, Mxico.
Morris, D. (1988). Probabilidad y Estadstica Addison-Wesley
Iberoamericana, Estados Unidos.
Murray, S (1976) Probabilidad y Estadstica: teora y 760 problemas
resueltos. Serie de Compendios SCHAUM, Mc.Graw-Hill, Mxico.
Romero, R y Znica L. (2005). Mtodos estadsticos en ingeniera. Editorial
de la Universidad Politcnica de Valencia, Espaa.
Walpole, R. Myers, R. y Myers, S. (1999), Probabilidad y Estadstica para
Ingenieros Sexta edicin, Editorial Pearson, Mxico.

S-ar putea să vă placă și