Sunteți pe pagina 1din 27

Captulo 2

Probabilidad
2.1. Introduccin
Nuestra experiencia nos dice que el resultado un experimento cuando ste se repite
varias veces no siempre es el mismo, incluso, cuando las condiciones del experimento se han mantenido lo ms controladas posible. La razn de esto es simple,
en general, algunos de los factores que afectan a los experimentos no pueden ser
controlados. Un ejemplo clsico es el lanzamiento de un dado o una moneda. Desde el punto de vista de la mecnica clsica, si se conocen las condiciones iniciales
del dado o de la moneda, en principio, es posible determinar el resultado del lanzamiento puesto que la evolucin del dado y de la moneda estn dadas por las
leyes de Newton. Por desgracia, en la prctica no se tiene acceso a informacin
tan detallada. Sabemos que las condiciones iniciales pueden medirse dejando cierta incertidumbre debido a las limitaciones de los instrumentos de medida. Estas
pequeas variaciones en las condiciones iniciales cambian el resultado del experimento a este fenmeno usualmente se le llama sensibilidad a las condiciones
iniciales.
Otro enfoque a este tipo de problemas consiste en preguntarse por el resultado
de un ensamble de experimentos en lugar de preguntarse por el resultado de uno
solo de ellos. En trminos del experimento con el dado esto quiere decir que nos
preguntamos por el nmero

nc

veces que caer el dado con la cara

ser lanzado un nmero total

de veces. Esto es, nos preguntamos por la frecuencia

del resultado cara

c hacia arriba al

c hacia arriba. En el lenguaje de la probabilidad, a los resultados

de los experimentos se les llama eventos simples. Note que los eventos simples son
53

Probabilidad

Captulo 1.

54

mutuamente excluyentes entre s, por ejemplo, si el dado cae con la cara tres hacia
arriba esto automticamente descarta las otras posibilidades.
De forma general consideremos la variable aleatoria
resultados

R x1 , x2 , .

la cual tiene asociados los

Algunas veces, los eventos simples se pueden indexar,

por ejemplo, en el caso de la moneda los resultados son cara o sello, esto es,

x1 = cara

x2 = sello.

Para el caso de un dado, el ndice puede por ejemplo

xi = i

corresponder al nmero de la cara, es decir,

i = 1, , 6.

con

Cuando

esto ocurre se dice que la variable aleatoria es discreta. Sin embargo, tambin es
posible que la variable aleatoria sea continua. Por ejemplo, si nuestra variable es
la posicin

~r = (rx , ry , rz )

dimensiones

Lx , Ly , Lz ,

de una partcula connada dentro de un recipiente de

entonces,

0 < rx < Lx , 0 < ry < Ly


E

Un evento compuesto es un subconjunto

E R.

La probabilidad de tener un evento

dos formas de determinar


frecuencia,

Fi (N ),

P (E),

de eventos simples de

se denota

P (E).

de un evento simple

y por lo tanto

es decir,

Hay bsicamente

ni (N )
,
N

(2.1)

de veces que el experimento dio como resultado el evento

R,

por medio el cociente:

es el nmero total de experimentos realizados y

una funcin de

0 < rz < Lz .

una de ellas es experimentalmente. Se dene la

Fi (N ) =

en donde

F i(N )

i.

ni (N )

es el nmero

En general,

ni (N )

es

depende del ensamble de experimentos.

Por ejemplo, al realizar el lanzamiento de una moneda la frecuencia de las caras


como funcin del nmero de experimentos est ilustrada en la siguiente tabla.

10

15

20

Fi (N )

3/5

5/10

8/15

11/20

si ustedes repiten el experimento obtendrn, en general, una tabla diferente. De hecho, puede probarse que las uctuaciones del cociente
lo tanto, en el lmite

Fi (N ) vara como N 1/2 . Por

tendiendo innito podemos esperar que las uctuaciones

desaparezcan y que de esta forma la frecuencia alcance un valor lmite. Se dene


entonces la probabilidad de ocurrencia del evento
tienden nito de

i, P i,

como el lmite cuando

F i(N ).

pi = lm Fi (N )
N

(2.2)

Captulo 1.

Si el evento
del evento

Probabilidad

55

E est formado por los eventos simples xi N

entonces la probabilidad

es:

P (E) =

Pi

(2.3)

iE

A su vez, hay dos formas experimentales de calcular esta probabilidad. Una es usar
un solo montaje y repetir en

veces el experimento con ese mismo montaje en

condiciones equivalentes. La otra opcin es tener

sistemas idnticos, es decir, que

no se puedan distinguir desde el punto de vista macroscpico a este conjunto se le


llama ensamble. El experimento entonces se realiza sobre cada uno de los miembros
del ensamble y de esta forma se calcula

P i.

En este ltimo caso, si se quiere, se

pueden realizar las medidas de manera simultnea. De ahora en adelante vamos


a suponer que los dos mtodos dan el mismo resultado. En mecnica estadstica
a esta suposicin se le llama hiptesis ergdica. Entonces podemos pensar en la
frecuencia de una secuencia experimentos sobre un sistema o como un experimento
sobre cada uno de los miembros de un ensamble. Notemos que, desde el punto de
vista de la hiptesis ergdica todos los estados del sistema son accesibles para cada
uno de los miembros del ensamble. Volveremos a este tema un poco ms adelante.
La otra forma de calcular

P (E)

es a partir de un estimado terico de las incerti-

dumbres relacionadas con el experimento debidas a la falta de informacin acerca


del mismo. Este es el mtodo que usaremos en mecnica estadstica. Como ejemplo
consideremos el caso del lanzamiento de una moneda. En esta situacin es razonable suponer que las probabilidades de que la moneda caiga cara o sello en un
lanzamiento son iguales. Este es el postulado de probabilidades iguales apriori. Naturalmente las predicciones realizadas por medio de las suposiciones tericas sobre
las probabilidades pueden ser validadas o refutadas por medio de experimentos.
Adems, estas probabilidades deben actualizarse una vez haya ms informacin
disponible a cerca del experimento.

2.2. Axiomas de la teora de probabilidad


Los axiomas de la teora probabilidad son:

1.

Positividad : 1 Pi 0 para todo evento simple i

2.

Normalizacin :

Pi = 1,

puesto que el resultado es algn evento en

R.

Captulo 1.

3.

Probabilidad

56

Aditividad : La probabilidad de tener el evento i o el j est dado por:


P (i j) = Pi + Pj

en donde tanto

como

(2.4)

son eventos simples y por lo tanto excluyentes entre s.

2.3. Eventos compuestos y eventos independientes


Usualmente conviene pensar en los eventos como puntos del espacio. Cada punto
representa el resultado de un experimento, es decir, representa un evento simple.
En este espacio no hay mtrica, las distancias no importan. Un evento compuesto

es un subconjunto de eventos simples. De acuerdo con los axiomas mencionados

anteriormente, la probabilidad del evento compuesto

P (A) =

E , P (E),

est dada por:

Pi

(2.5)

iE

Esquema del espacio muestral compuesto por varios eventos simples


representados por untos negros. El subconjunto encerrado por la lnea roja es
un evento compuesto E .
Figura 2.1:

En el caso del lanzamiento un dado el evento compuesto

puede ser que el re-

sultado sea un nmero par o impar. Dos eventos compuestos pueden tener o no
eventos en comn. Dos eventos son disyuntos si no tienen elementos en comn, es
decir, si su interseccin es nula. Consideremos tres eventos compuestos,
tales que

AC = AB = 0

B C 6= 0,

A, B

ver gura 2.2. Se concluye entonces

que:

P (A) + P (B) = P (A B) y P (A) + P (C) = P (A C)

(2.6)

Captulo 1.

Probabilidad

57

Esquema del espacio muestral compuesto por varios eventos simples. Las lneas de colores encierran los eventos compuestos A, B y C .

Figura 2.2:

Si los eventos no son disyuntos como en el caso de


cautela. De esta forma, la probabilidad de

P (B C)

C,

debemos proceder con

es igual a:

P (B C) = p(B) + p(C) P (B C)

(2.7)

en donde el ltimo trmino de la ecuacin anterior evita el doble conteo de los


elementos de la interseccin. Para eventos disyuntos, la interseccin es igual a cero
y recuperamos la Ec. (2.6) vlida para eventos disyuntos.
Se dene la probabilidad condicional
do que ya se obtuvo

P (A |B ) como la probabilidad obtener A da-

previamente en el experimento. Consideremos, por ejemplo,

el caso del lanzamiento de dos dados. Sea


con la cara dos hacia arriba y

el evento uno de los dos dados cae

el evento la suma de los dados es

7.

Entonces,

P (A |B ) es la probabilidad de que un dado caiga con la cara dos hacia arriba dado
que se sabe que la suma de los nmeros de los dos dados es siete. En general, la
probabilidad condicional est dada por:

P (A |B ) =

Notemos que si la

A B = 0,

son excluyentes, es decir, si


de los dos dados si

entonces,
ocurre

P (A B)
p(B)

P (A |B )

(2.8)

es igual a cero y los dos eventos

no puede ocurrir. Nuevamente, en el caso

es el evento cae una cara con el lado dos hacia arriba y

es el evento la suma de los dos lados es 12, es claro que,

AB = 0

y por lo tanto

los eventos son excluyentes.


Dos eventos

son independientes, si y slo, si

Usando esta denicin en la Ec. (2.8) tenemos

P (A B) = P (A)P (B).

P (A |B ) = P (A).

Concluimos que,

Captulo 1.

Probabilidad

los eventos

58

son independientes si el obtener

no afecta el obtener

viceversa.
Ejemplo

Considere el experimento de lanzar dos dados simultneamente. Determine:

a) el espacio muestral, cul es la probabilidad de cada una de las conguraciones posibles?


b) la probabilidad de que la suma de los lados de los dados sea seis o siete.
c) la probabilidad de que la suma de los dos dados sea siete dado que uno de
ellos es tres.
d) la probabilidad de que uno de los dados sea tres dado que la suma de siete.
e) la probabilidad de que la suma de los dados se impar.
f ) la probabilidad de que la suma de los dados sea mayor que 8.

Desarrollo

a) Hay en total 36 eventos simples en el espacio muestral. Por lo tanto, a


partir del postulado de probabilidades iguales apriori tenemos que
para todo evento

del espacio muestral.

b) Los eventos simples en donde la suma de las caras es 6 son:


y

(5, 1).

5/36.

Sea

pi = 1/36

(1, 5), (2, 4), (3, 3), (4, 2)

el evento suma de las caras igual a seis, por lo tanto

Por su parte, sea

p(A) =

el evento suma de los dados igual a 7. Las con-

guraciones posibles son

(1, 6), (2, 5), (3, 4), (4, 3), (5, 2) y (6, 1)
luego

(2.9)

p(B) = 1/6.

c) Sean

los eventos suma de los dados es 7 y al menos uno de los dos

dados es tres respectivamente. En la gura 2.3, los eventos en los cuales al


menos uno de los dados es tres estn encerrados por la lnea roja. De esos 11
eventos solo en

(3, 4)

(4, 3).

Por lo tanto

P (A |B ) = 2/11.

calcular esta probabilidad es apartir de la Ec. (2.8). Usando


y

p(B) = 11/36

en Ec. (2.8) se encuentra

P (A |B ) = 2/11.

Otra forma de

p(A B) = 2/36

Captulo 1.

Probabilidad

59

Hay 36 puntos en el espacio muestral. La lnea azul encierra todos


los eventos en los cuales la suma de los dados es 7 mientras que la lnea roja
encierra aquellos en los cuales al menos un dado tiene la cara tres hacia arriba.

Figura 2.3:

d) De la misma forma

p(B A) = p(B A)/p(A) = 2/36/6/36 = 1/3.

importante recalcar que, en general,

Es

P (A |B ) 6= p(B A).

e) De la Fig. 2.3 es claro que hay 18 conguraciones con esa caracterstica.


Por lo tanto, si

es el evento la suma de los dados es impar, entonces

p(A) = 18/36 = 1/2.


f ) Nuevamente a partir del espacio muestral tenemos 10 conguraciones en
donde la suma de los dados es mayor que 8. La probabilidad de este evento
es entonces 5/18.

Ejemplo

Considere el siguiente experimento. Entre cuatro dgitos

1, 2, 3

4,

el primero

se elige al azar mientras que el segundo es elegido tambin al azar entre los tres
dgitos restantes. Los eventos simples son entonces pares ordenados

(4, 2),

(1, 3), (3, 1),

etc.

1. Cuntos puntos tiene el espacio muestral? Determine la probabilidad de


cada uno de los eventos?
2. Considere los eventos

A:

el primer dgito es impar

par. Determine P (A) y P (B).

3. Determine

P (A B).

P (A B)

P (A B).

Muestre que

B:

el primer dgito es

P (A B) = P (A) + P (B)

Captulo 1.

Probabilidad

60

4. Considere los eventos compuestos

C:

el ltimo dgito es par

dgito es impar. Determine P (C) y P (D).

5. Dibuje el espacio muestral indicando los eventos

A, B , C

D:

el ltimo

D.

6. Determine la probabilidad de que el primer dado se impar dado que el segundo es par
7. Cul es la probabilidad de que el primer dgito se impar dado que la suma
es par?

Desarrollo . . .

Ejemplo

Calcule la probabilidad de obtener un total menor o igual a seis puntos cuando se


lanzan tres dados.
Desarrollo

El nmero total de conguraciones de tres dados es:

Nc = 63 = 216

(2.10)

Ahora veamos cuntas de esas conguraciones dan seis o menos puntos. En el


ejemplo anterior calculamos el espacio muestral de dos dados. Para el problema
cuestin slo sirven las conguraciones de dos dados con puntaje menor o igual a
cinco tal y como cmo se muestra en la siguiente tabla.

(1, 1) (2, 1) (3, 1) (4, 1)


(1, 2) (2, 2) (3, 2)
(1, 3) (2, 3)
(1, 4)
Para cada una de las conguraciones mostradas hay ciertas posibilidades que sirven
para el tercer dado. Por ejemplo, para la conguracin

(1, 1)

hay cuatro posibili-

dades, el tercer dado puede caer 1, 2, 3 o 4. Se puede hacer el mismo anlisis con
las otras conguraciones mostradas en la gura. Podemos ver que la probabilidad
tener seis o menos al lanzar tres dados es simplemente:

Captulo 1.

Probabilidad

61

P (S 6) =

5
10 + 6 + 3 + 1
=
216
54

(2.11)

2.4. Tcnicas de conteo


Como vimos anteriormente muchos problemas que involucran el clculo de probabilidades se reducen a contar un determinado nmero de eventos. A continuacin
se describen algunas tcnicas que facilitaran esta tarea.
El nmero de formas de arreglar

objetos diferentes est dado por

por qu. Supongamos que tenemos una red con


posibles ubicaciones, el segundo tiene

n 1,

n!,

veamos

sitios. El primer objeto tiene

el tercero

n2

y as sucesivamente.

El nmero total de formas de arreglar los objetos entonces es:

n! = n (n 1) (n 2) 1
El nmero de formas de arreglar

objetos de los cuales hay

(2.12)

idnticos es

n!/p!.

Para entender esto, consideremos todas las formas posibles de arreglar las letras

A, A, B

C.

Notemos que en este caso no hay

4!

combinaciones como ocurrira

si todas las letras fueran diferentes puesto que los cambios de la forma:

AAB C AAB C

(2.13)

llevan a la misma conguracin. Como veremos en captulos posteriores, los efectos de la indistinguibilidad de partculas tienen gran importancia en mecnica
estadstica. Las

4!/2! = 12

conguraciones posibles son entonces:

AAB C

AAC B

AB AC

ABC A

AC AB

AC BA

B AAC

BAC A

B C AA

C AAB

C AB A

C B AA

De forma general, si tenemos

objetos,

de un tipo,

de otro tipo,

de otro y

as sucesivamente, entonces, el nmero total de conguraciones posibles es:

n!
p! q! r!

(2.14)

Captulo 1.

Probabilidad

62

Consideremos ahora el nmero de formas de elegir


Naturalmente

n r.

n.

objetos de un total de

Supongamos por ejemplo que tenemos diez letras

A, B , ,

y que de entre ellas tenemos que elegir tres. Para la primera letra tenemos 10

posibilidades de eleccin, para la segunda


total de conguraciones es

10 9 8.

y para la tercera

8.

Luego, el nmero

Escrito de otra forma tenemos:

10 9 8 =

10!
.
7!

(2.15)

El nmero total de conguraciones es, en general:

Prn =
A la cantidad

Prn

n!
.
(n r)!

se le denomina permutacin de

(2.16)

elementos tomados

a la

vez. Notemos que en este caso, el orden de eleccin es importante. Sin embargo,
hay algunas ocasiones en donde no importa el orden de eleccin de los elementos.
Consideremos por ejemplo un conjunto de tres letras
ces combinaciones de la forma

A, B

C.

Tenemos enton-

A B C , A C B , B C A, B A C , C A B

CBA

las

cuales se consideran diferentes puesto que el orden si importa. Si por el contrario,


el orden de eleccin no es importante entonces todas las conguraciones mostradas anteriormente son equivalentes. De esta forma cuando el orden de eleccin no
importa, el nmero de conguraciones posibles se reduce. El nmero de conguraciones posibles de

objetos tomados

a la vez si el orden no es importante est

dado por:

Crn =

n!
.
(n r)! r!

A esta cantidad se le llama combinacin de

(2.17)

objetos tomados

a la vez.

2.5. Funciones de distribucin de una variable aleatoria


Una forma eciente de analizar problemas de este tipo est dado por las funciones
de distribucin. Por ejemplo, calculemos la distribucin

P (S)

de tener un total

Captulo 1.

Probabilidad

63

en el lanzamiento de dos dados. Los resultados se muestran en la siguiente tabla


y se resumen en la Fig. 2.6, en donde se ha tenido en cuenta que el nmero total
de resultados posibles es 36.

P (s) 1/36 1/18 1/12 1/9

10

11

12

5/36 1/6 5/36 1/9 1/12 1/18 1/36

Distribucin de probabilidad para el evento suma de las caras en


el lanzamiento de dos dados.
P
ha usado
S P (S) = 1 y hemos asumido que la probabilidad

Figura 2.4:

En donde se

de

obtener un resultado determinado en el lanzamiento es un dado es igual para


todos los posibles eventos. Notemos adems que para
A la funcin

P (S)

S<2

S > 12, P (S) = 0.

se le llama distribucin de probabilidad de la variable

S.

2.6. Momentos de una Distribucin


Se dene el valor medio de una variable aleatoria

hsi =

como:

s P (s).

(2.18)

Ms generalmente se dene el

m-simo

momento de

como:

Captulo 1.

Probabilidad

64

hsm i =

sm P (s).

(2.19)

De la misma forma, el valor medio de una funcin cualquiera

f (s)

est dado por

ecuacin:

hf (s)i =

f (s) P (s).

(2.20)

Como consecuencia de esta denicin tenemos que:

hf (s) + g(s)i = hf (s)i + hg(s)i

(2.21)

hc f (s)i = c hf (s)i .

(2.22)

Una medida de las uctuaciones de


la desviacin estndar

alrededor del valor medio

hsi

est dada por

la cual a su vez es la raz cuadrada de la varianza



Var(s) = s2 = (s hsi)2 = s2 hsi2 .
Una consecuencia de la ecuacin anterior es que

Var(s):

(2.23)

hs2 i 0.

Como mencionamos anteriormente, en algunos casos la variable no puede ser indexada. Un ejemplo es el caso una partcula que se mueve a lo largo del eje
Como la variable

x es continua y no discreta, no es posible asignarle un ndice. Sin

embargo, nos podemos preguntar por la probabilidad


este entre

x.

x + x.

se hace ms pequeo

Puesto que

P (x, x)

P (x, x)

P (x, x) de que la partcula

depende de

x,

tambin lo ser. En el lmite

a medida que

tendiendo a cero

podemos escribir:

P (x, x)
.
x0
x

P (x) = lm

(2.24)

Captulo 1.

Probabilidad

Figura 2.5:

65

La densidad de probabilidad se obtiene tomando x 0 en la Ec.


(2.24).

Es necesario aclarar que

P (x)

no es una probabilidad sino que es una densidad de

probabilidad la cual satisface las siguientes condiciones


para todo

dx P (x) = 1

P (x) 0

x.

En general, las deniciones que vimos antes para los valores medios son vlidas
tambin en el caso de variables continuas. Simplemente debemos cambiar la suma
por un integral tal y como se muestra a continuacin.

dx

(2.25)

Consideremos la variable aleatoria

a x b.

Se dene la distribucin acumulada

Q(y)

a x y,

es decir

como la probabilidad de que

Q(y) =

dx P (x).

(2.26)

a
Note que esto inmediatamente implica que

Q(a) = 0

Q(b) = 1.

Es claro que,

Q(y) es siempre una funcin monotonamente creciente. Adems P (x) y Q(y) estn
relacionadas de acuerdo a:

P (y) =
Sea

f = F (x)

que

f [f, f + df ]

dQ(y)
.
dy

una funcin de la variable aleatoria

(2.27)

x.

La probabilidad

R(f ) df

de

est dada por:

R(f ) df =

X
i

P (xl ) dxl

(2.28)

Captulo 1.

con

xl

Probabilidad

66

las soluciones de la ecuacin

R(f ) =

F (x) = f .

X
l

De forma equivalente:


dx
P (xl )
.
dF x=xl

(2.29)

Ejemplo

En un juego de ruleta rusa se inserta una bala en el tambor de un revlver con


seis recmaras. El tambor se pone girar y el jugador se dispara directamente a la
cabeza. Este procedimiento se repite

veces sin recargar el revlver hasta que la

persona que est jugando muere. Tenga en cuenta que antes de cada disparo el
tambor se hace girar.

1. a) Cul es la probabilidad de quedar con vida en despus de


2. b) Cul es la probabilidad de sobrevivir

turnos?

n 1 turnos y morir en el n-simo?

3. c) Cul es el nmero medio de veces que el jugador tira el gatillo?

Desarrollo

a) La probabilidad de que la bala salga disparada en un intento es 1/6. Naturalmente, la probabilidad de sobrevivir es

1 1/6.

Sea

la probabilidad sobrevivir y

la probabilidad de morir. La probabilidad sobrevivir

turnos es simplemente:

 N
5
PS (N ) =
,
6

(2.30)

en donde hemos considerado que los disparos son eventos independientes debido
que el tambor siempre se hace girar antes de cada disparo.
b) La probabilidad de sobrevivir

N 1 veces y morir en el turno N

1
PM (N ) = p PS (N ) =
6
es fcil ver adems que

N !/(N 1)!1!

N =1

PM (N ) = 1.

formas de ordenar

es simplemente:

 N 1
5
,
6

(2.31)

Por otro lado note que hay

elementos con

N 1

de un tipo y

N =

de otro

tipo. Sin embargo, este factor est ausente en la Ec. (2.31) puesto que solo la
conguracin en la cual el disparo se de al nal de los

intentos cuenta.

Captulo 1.

Probabilidad

67

c) El nmero medio de veces que un jugador se dispara antes de morir es:

 N 1

X
N 5
hN i =
N PM (N ) =
,
6
6
N =1
N =1

(2.32)

teniendo en cuenta que

1
d
hN i =
lm
6 a5/6 da

!
aN

(2.33)

N =1

La suma resultante es geomtrica y puede calcularse fcilmente. De esta forma:

1
d
hN i =
lm
6 a5/6 da

1
1a



1
1

=
= 6.
6 (1 a)2 a=5/6

(2.34)

Ejemplo

Sea

P (x) = C ea x

la distribucin de la variable

misma variable aleatria con

x [0, ).

1. la constante de normalizacin
2. el valor medio de

F (x) = x2

una funcin de la

Determine:

como funcin de

a.

F (x).

3. la desviacin estndar de

x.

4. la densidad de probabilidad

R(f ).

Desarrollo

1. La constante de normalizacin se calcula a partir de la condicin

1.

dx P (x) =

Por lo tanto

dx C ea x
0

C a x
= e
a
0
C
=
a

dx P (x) =

de donde se concluye que

C = a.

(2.35)

Captulo 1.

Probabilidad

2. El valor medio de

68

est dado por

hxi =

dx x P (x).

De esta forma

dx x a ea x
0

Z

a x
= a
dx e
a
0

eax (1 + a x)
=

a

hxi =

1
=
a
Por su parte,

hF (x)i

(2.36)

est dado por

dx x2 a ea x
0
Z

2
a x
dx e
= a 2
a
0
2
= 2
a

hF (x)i =

3. La desviacin estndar de

(2.37)

es simplemente


x2 = x2 hxi2

(2.38)

usando los resultados obtenidos previamente

x2 =
4. La densidad de probabilidad

2
1
1
2 = 2
2
a
a
a

R(f )

(2.39)

obtiene a partir de


dx
R(f ) =
P (xl )
dF x=xl
l
p
1
= P( f)
2 f

a
= ea f
2 f
X

(2.40)

Se deja como ejercicio al lector calcular la desviacin estndar de

R(f )

para la distribucin

Ejemplo

P (x) = C e

a |x|

con

x (, )

F (x)

y calcular

Captulo 1.

Considere

Probabilidad

69

de ellas sigue la distribucin


probabilidad
a

x1 , x2 , , xN

variables aleatorias

Q(r)

p(x).

independientes entre si. Cada una

Determine, en funcin de

de que el mximo valor del conjunto

xi

con la condicin adicional que solo uno de los

resultado para el caso de la distribucin

la densidad de

x1 , x2 , , xN

es igual a

p (x) = e

p(x),
r.

sea igual

Especialice su

x > 0.

, con

Desarrollo

La probabilidad de tener una conguracin dada con valores

P (x1 , x2 , , xN ) =

N
Y

x1 , x2 , , xN

p(xi ).

es:

(2.41)

i=1
Por su parte, la densidad de probabilidad solicitada

Q(r) =

N Z
X
j=1

N
X

Q(r)

est dada por:

dx1 dxN P (x1 , x2 , , xN )(xj r)

0
N Z
Y

p(xj = r)

j=1


dxi p(xi )

(2.42)

i=1

i6=j

Como el la ecuacin anterior los

trminos de la suma son equivalentes, entonces

Q(r) = N p(x1 = r)

N
Y

q(r > xi ).

(2.43)

i=2
note que el primer factor

objetos tomados

q(r > xi ),

N=

N!
es el nmero de conguraciones posibles de
(N 1)!1!

a la vez cuando el orden no es importante. Por denicin,

es la probabilidad de que

x<r

(la probabilidad acumulada denida

anteriormente). De esta forma la Ec. (2.46) toma la forma

Z
Q(r) = N p(x1 = r)

N 1

dx p(x)

(2.44)

0
En el caso particular de

P (x) = e x
N

tenemos

Z

Q(r) = N e

r
x

N 1

dx e

(2.45)

0
Desarrollando la integral se tiene

Q(r) = N e r 1 e r

N 1

(2.46)

Captulo 1.

Probabilidad

Q(r)

Note que

70

est debidamente normalizada. Se deja como ejercicio al lector

resolver el mismo problema para el caso en que ms de una de las variables pueda
tomar el valor de

r.

Ejemplo

Considere una lnea recta de longitud

en la cual la densidad de partculas es

Se supone que las partculas est distribuidas aleatriamente. Determine la

probabilidad
dada sea

r.

p(0) (r) dr

de la partcula ms cercana (primer vecino) a una partcula

Calcule tambin la probabilidad

p(1) (r) dr

ms cercana (segundo vecino) este a una distancia

de que la segunda partcula

r.

Desarrollo

La probabilidad de tener

N (x) una partcula en una porcin de la lnea de longitud

es

px = N (x)/N (L)
con

N (x)

L,

N (L)

(2.47)

los nmeros de partculas dentro de los intervalos de longitudes

respectivamente. La probabilidad de que no haya partculas en el intervalo

de longitud

est dada por el producto

N (L)

E(x) =

N (L)

(1 px ) =

i=1

(1 N (x)/N (L)) = (1 N (x)/N (L))N (L) .

i=1

La ecuacin anterior es vlida si

y  x,

por lo tanto

E(x) = eN (x) = e

La probabilidad

(2.48)

Rx
0

ds

= e x .

(2.49)

p(0) (r) dr es la probabilidad condicional de que dada una partcula

en el origen, su primer vecino este a una distancia r . Consideremos una red discreta,
n1
z }| {
(0)
sea qn = P rob( ). El nmero total de conguraciones es

Captulo 1.

Probabilidad

71

n1

z }| {

(0)

qn

n1

z }| {
En En+1
n1
(2.50)

z }| {
En En+1
n1

z }| {

En+1

n1

z }| {

En1

La suma de todos los trminos lleva a

qn(0) + En En+1 + En En+1 + En+1 = En1 ,

(2.51)

qn(0) = En+1 2En + En1 ,

(2.52)

nalmente usando la denicin de probabilidad condicional,

(0)

(0) 1

qn = x pn

. En

el lmite continuo, se obtiene

2 E(r)
p (r) =
r2
(0)

Usando este resultado con

E(r) = e r

se encuentra

(2.53)

p(0) (r) = e r .

Para la distribucin de espaciamientos de segundos vecinos es claro que

p(1) (r)

tiene la forma

Z rZ

(1)

p (r) =
0

2 dx dy e x e y (r (x + y))

(2.54)

Una forma general de evaluar la integral anterior es por medio de la transformada


de Laplace

p(1) (l) =

R
0

dy el y p(1) (y),

(1)

Z rZ

p (l) =
0

de esta forma

dx dy el (x+y) p(0) (x) p(0) (y)

p(1) (l) = p(0) (l)2


1 Esta

relacin se obtiene P (B | A) =

n1

z }| {
P rob( ) y P (B) = x.

(2.55)

P (AB)
P (B) ,

(2.56)

en este caso P (B | A) = p(0)


n , P (A B) =

Captulo 1.

Probabilidad

72

De forma explcita tenemos que

p(0) (l) =

. Lo que lleva a
+1

(1)

p (l) =

+1

2
(2.57)

La transformada inversa es bien conocida

p(1) (r) = 2 r e r
Puede generalizar el resultado para el caso del

(2.58)

n-simo

vecino?

2.7. Funciones Caractersticas


Denimos la funcin caracterstica,

P (k),


P (k) = ei k x =
Naturalmente, es posible recobrar

de una distribucin

P (x)

dx p(x) ei k x .

de acuerdo a:

(2.59)

P (x) de la funcin caracterstica P (k) por medio

de la transformada de Fourier inversa:

1
P (x) =
2
Los momentos de

P (x)

dk P (k) ei k x .

pueden obtenerse de

P (k)

(2.60)

por medio de una expansin en

series de Taylor, tal y como se muestra a continuacin.

P (k) =

*
X (i k)n
n=0

de esta forma, el

m-simo

n!

+
xn

X
(i k)n
n=0

n!

hxn i .

(2.61)

momento de la distribucin puede obtenerse por medio

de derivadas de la funcin caracteristica

hxm i =
Los cumulantes

hxm ic

m
P (k = 0)
(i k)m

(2.62)

de la distribucin se denen de acuerdo a

lnP (k) =

X
(i k)n
n=1

n!

hxn ic .

(2.63)

Captulo 1.

Probabilidad

73

Los cumulantes estn totalmente determinados por los momentos de

P (x).

Para

esto tomamos el logaritmo natural en la Ec. (2.61):

X
(ik)n

lnP (k) = ln

hxn i

n!

n=0
recordando que

ln(1 + ) =

= ln 1 +

X
(ik)n

n!

n=1

!
hxn i

(2.64)

n+1 n
se obtiene:
n=1 (1)
n

lnP (k) =

X
(1)n+1

n=1

X
(ik)n
n=1

n!

!n
hxn i

(2.65)

Reteniendo trminos hasta de orden tres en la expansin

X
(ik)n
n=1

n!

!1
hxn i

X
(ik)n
n=1

n!

(2.66)


= k 2 hxi2 + i k 3 hxi x2 +

(2.67)

!2
hxn i

X
(ik)n
n=1

k2
2 i k3
3
x +
x +
2
6

= i k hxi

n!

!3
hxn i

= i k 3 hxi3 +

(2.68)

De esta forma, se encuentra que

lnP (k) = i k hxi


k3
k3
k2
2 i k3
3 k2
x +
x +
hxi2 i hxi x2 + i hxi3 +
2
6
2
2
3
(2.69)

Igualando los trminos de orden

de la expresin anterior con los de la Ec. (2.63)

se obtiene

hxic = hxi


x c = x2 hxi2


x c = x3 3 x2 hxi + 2 hxi3
.
.
.

(2.70)

Tambin es posible escribir los momentos de

P (x)

en funcin de los cumulantes.

Aplicando la funcin exponencial a ambos lados de la Ec. (2.63) tenemos que:

P (k) = e

n=1

(i k)n
hxn ic
n!

(2.71)

Captulo 1.

Probabilidad

74

usando las propiedades de la funcin exponencial es posible escribir la expresin


anterior como un producto

P (k) =

(i k)n
hxn ic
n!

(2.72)

n=1
expandiendo en series de Taylor la funcin exponencial

P (k) =

Y
n=1 mn

1
mn !
=0

(i k)n n
hx ic
n!

mn
(2.73)

simplicando se tiene

P (k) =

Y
(i k)n mn n mn
hx ic
mn
m
!n!
n
n=1 m =0

(2.74)

Finalmente, igualando la ecuacin anterior con la (2.61) tenemos que

X
(i k)n
n=0

n!

Y
(i k)n mn n mn
hx i =
hx ic
mn !n!mn
n=1 m =0
n

(2.75)

lo que conduce a

hxi

2
x

3
x

4
x

= hxic


= x2 c + hxi2c


= x3 c + 3 x2 c hxic + hxi3c


= x4 c + 4 x3 c hxic + 3 x2 c + 6 x2 c hxi2c + hxi4c
.
.
.

(2.76)

El resultado anterior tiene una interpretacin diagramtica sencilla. El


momento se obtiene sumando todas las posibles divisiones de

n-simo

puntos en gru-

pos de menor tamao. Los coecientes de la expansin representan el nmero de


formas que hay de romper un conjunto de

puntos. Por ejemplo, consideremos el caso de

puntos en

n = 3.

mn

agrupamientos de

Hay solo una forma de elegir

un agrupamiento de tres puntos y tambin solo hay una forma de elegir tres agrupamientos cada uno de un solo puntos. Sin embargo, hay tres formas de elegir un
agrupamiento de dos puntos y el resultante de un solo punto, ver gura.

Captulo 1.

Probabilidad

Figura 2.6:

75

Formas de elegir grupos de dos puntos de un total de tres.

Esta interpretacin es muy til puesto que permite escribir rpidamente de forma
diagramtica la Ec. (2.76) tal y como se indica a continuacin:

hxi

2
x

3
x

4
x

=
= +
= + 3 +
= +4 + 3 + 6 +

(2.77)
(2.78)

Como veremos en el siguiente ejemplo los cumulantes son muy tiles a la hora de
especicar una distribucin.
Ejemplo

La distribucin normal o gaussiana est dada por

p(x) = C e

(x)2
2 2

Determine la constante de normalizacin

de la grca de esta funcin e interprete

(2.79)

en trminos de
y

. Realice un esquema

Finalmente muestre que

p(x)

est

totalmente denida por sus dos primeros cumulantes.


Desarrollo

La constante de normalizacin se obtiene a partir de

dx p(x) = C

dx e

(x)2
2 2

=C

2 2 = 1

(2.80)

Captulo 1.

Probabilidad

76

C = 1/ 2 2 .

lo que implica inmediatamente que

Por otro lado la transformada

de Fourier de la distribucin est dada por

P (k) =

1
2 2

dx e

(x)2
i k x
2 2

(2.81)

Completando el cuadrado en el argumento de la funcin exponencial tenemos que

P (k) =


2
2 2
(x)
k

+ i
i k k 2

dx e

2 2

(2.82)

Desarrollando la integral tenemos que


2 2

k
P (k) = ei k 2

(2.83)

De esta forma se tiene que


k22

ln P (k) = i k
2


comparando con la Ec. (2.63) se concluye que


para

n > 2.

(2.84)

hxic = , hx2 ic = 2

hxn ic = 0

Por esta razn se puede concluir que la distribucin gaussiana est

totalmente denida por sus dos primeros cumulantes.


Ejemplo

Demuestre que si

es una variable aleatoria con distribucin

otra variable aleatria, entonces

R(f ) =

P (x)

f = F (x)

es

hf F (xl )i.

Desarrollo

Sabemos que

1
R(f ) =
2

Z
dk e

ikf

R(k)
=
2

Z
dk e

ikf

X
(i k)n
n=0

n!

hf n i .

en donde hemos usado la expansin de la funcin caracterstica

.
R(k)

(2.85)

Usando la

denicin de valor medio tenemos que

1
R(f ) =
2

Z
dk e

ikf

X
(i k)n
n=0

n!

dx P (x)

X
l

F (xl )n

(2.86)

Captulo 1.

Probabilidad

77

reagrupando factores

1
R(f ) =
2

1
2

dk e

ikf

XZ

dx P (x)

X
(i k)n F (xl )

dk ei k f

n!

n=0

XZ

dx P (x) ei k F (xl )

Z
Z
1 X
=
dx P (x) dk ei k f i k F (xl )
2 l

(2.87)

reconociendo la representacin integral de la funcin delta de dirac

Z
R(f ) =

dx P (x)

(f F (xl )) =

hf F (xl )i

(2.88)

2.8. Marcha aleatoria en una dimensin


Consideremos una partcula que en

t = 0 se encuentra en el origen. La partcula en

una cada unidad de tiempo da un paso de longitud


con probabilidad

m l = l(nL nR )

donde

El paso es hacia la derecha

q.

Deseamos determinar la

m l al cabo de N

pasos. El desplazamiento

y a la izquierda con probabilidad

probabilidad de tener un desplazamiento


es simplemente

l.

nL

nR

son los nmeros de pasos hacia

la izquierda y a la derecha, respectivamente. Naturalmente tenemos que

nR + NL .

N =

La probabilidad de tener una de estas conguraciones es simplemente:

z }|L { z }|R {
q q p p = q nL pnR

(2.89)

en donde hemos considerado que cada uno de los pasos son independientes entre s.
Naturalmente hay muchas conguraciones con igual nmero de pasos al izquierda
y a la derecha. Ya hemos visto que el nmero de conguraciones de
con

nR

elementos de un tipo y

nL

pasos est dada por:

nR

elementos

elementos de otro tipo, es simplemente:

Z=
La probabilidad de tener

N!
nR !nL !

pasos a la derecha despus de un total de

(2.90)

N , PN (nR ),

Captulo 1.

Probabilidad

78

N!
q N nR pnR
nR !(N nR )!

PN (nR ) =
o en trminos de

(2.91)

est dado por:

PN (m) =

N m
2

N m N +m
N!
 N +m  q 2 p 2
! 2 !

(2.92)

Ya que tenemos la distribucin, es fcil calcular el valor medio de la variable

nR

tal y como se muestra a continuacin. La funcin caracterstica est dada por

i k nR

N
X
nR

N!
q N nR pnR ei k nR
n
!(N

n
)!
R
R
=0

N
X
nR

n
N!
q N nR p ei k R
n !(N nR )!
=0 R

(2.93)

Usando el teorema del Binomio se encuentra que


N
P (k) = ei k nR = q + p ei k

(2.94)

Los dos primeros momentos se calculan fcilmente por medio de las derivadas


P (k)
hnR i =

k

i k

=e

i k

Np e

N 1
p+q

= pN

(2.95)

k=0

k=0

2
nR =


2 P (k)

k 2

= e

i k

k=0

N p ei k p + q

N 2


N ei k p + q

= p N (N p + q)

(2.96)

k=0
(2.97)

La desviacin estndar

est dada por

2 = hn2R i hnR i2 = q p N .

Captulo 1.

Probabilidad

79

Otro mtodo para calcular los momentos es usando directamente la denicin.


Tenemos que:

hnR i =

N
X

nR

N!
q N nR pnR
nR !(N nR )!

nR

N!
d
q N nR (pnR ) p
nR !(N nR )!
dp

nR =0

N
X
nR =0

(2.98)

intercambiando el orden entre la suma y la diferenciacin

hnR i = p

N
N!
d X
nR
q N nR pnR
dp n =0
nR !(N nR )!
R

= p

d
(p + q)N = p N (p + q)N 1 = p N.
dp

(2.99)

en donde se ha usado el teorema del binomio. De forma anloga, es posible escribir

hn2R i

como:

N
X

N!
q N nR pnR
n
!(N

n
)!
R
R
nR =0




N
X
N!
d
d
2
N nR
nR
=
nR
q
p
p
p
nR !(N nR )!
dp
dp
n =0

2
nR =

n2R

(2.100)

usando nuevamente el teorema del binomio tenemos

n2R

2
d
(p + q)N = p N (p + q)N 1 + p2 N (N 1)(p + q)N 2
=
p
dp
= p N (N p + q)
(2.101)


tal y como habamos encontrado antes.

2.9. Incertidumbre
Consideramos que tenemos un dado justo, es decir, un dado en el cual la probabilidad tener cualquiera de las caras en un lanzamiento igual
consideramos otro dado en el cual

1/6.

Por otra parte,

pi = 1/8 para 5 i 1 y p6 = 3/8. Finalmente

consideremos que tenemos un tercer grado en el cual

p6 = 1

pi = 0

para todo

diferente de 6. Si quisieran apostar por un dado cul elegiran? La respuesta es

S-ar putea să vă placă și